PEFT
PEFT – "Parameter-Efficient Fine-Tuning" – 参数高效微调
通过只调整模型中一小部分参数的方式,来适应新的任务或数据集,从而 –> 显著降低了计算和存储成本
Additive approach:
Prompt-based approach:
Adapter模块:对每个任务,仅添加少量训练参数
Adapter大小于parameter efficiency相关:
更小的adapters添加的parameters更少,代价是performance⬇️
当adapting to特定任务时,预训练的LM具有低的"内在维度",并且即使随机投影到一个更小的子空间,仍然可以高效学习。
受此启发,LoRA作者假设:在adaptation过程中,权重矩阵的更新同样具有低的“内在秩”。
For a pre-trained weight matrix
where
如果选择将 A 和 B 吸收进 W 以消除额外的推理延迟,那么在单个前向传播中批量处理具有不同 A 和 B 的不同任务就不那么直接了。
在延迟问题不重要的场景,可以选择:不 merge 权重,并动态选择 batch 中每个input sample 对应的 LoRA 模块。
Adapter Layer